Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
8.9.2010, Petr Štefek, recenze
GeForce GTX 470 výrazně zlevňují, a tak se stávají skutečnou alternativou vůči Radeonům řady HD 5800. Gigabyte přichází se silně přetaktovanou kartou s nadstandardní chladičem, který se pokusí zmírnit běžné neduhy obřího čipu GF100.
kramatos | 22.9.201016:46
No vzhledem k tomu, že jsem kartu měl a skříň mám větranou obstojně to vidím trochu jinak a to takto. hnizdo.1, mrkni se že máš při zátěži GPU voltage 962, jestli dobře čtu, což ihned znamená, že karta bude topit výrazně méně než ta co jsem měl např. já, s továrním nastavením 1012. To je třeba jedna z věcí, která by se rozhodně měla v recenzích zdůraznit obecně, jakou voltage má testovaná karta. Takže ty pravděpodobně vlastníš prémiovej kousek, kde jsou ty teploty uvěřitelné. Teploty které jsem naměřil já odpovídaly recenzi. Bohužel jsem byl hodně zklamán, když teplota PCB při testování ve Furmarku a OCCT lezla nad 70 stupňů. Pro porovnání, 460ka OC 1Gb od Gigabytu PCB nešla nad 50 stupňů. To by mělo být v recenzi uvedeno také, teplota PCB.
Věc která mě ale dodělala je ta, že nebylo možné taktovat paměti a to ani o 5Mhz. Jakýkoli pokus taktovat paměť skončil v zátěži pádem. Kartu jsem kupoval u vrabčáků a vzhledem k dalšímu neduhu ­(chvění obrazu­) jsem kartu vrátil. Bylo to řešeno přes reklamace, reklamace uznána, žádné podrobnosti žel nevím. Myšleno zda byl vadný výstup nebo vramka.
Ještě k recenzi, rozhodně by nebylo od věci testovat v OCCT a postovat výsledek alespoň toho 10min GPU testu, kterej mi už při defaultu hodil 97 chyb, pro porovnání 460ka po hodině ani chybu! Nechápu smysl testování bez konkrétně této utility, která celkem věrně reprezentuje stabilitu karty. A další věc je, že přesto že hra může při OC běžet ­"stabilně­", právě po OCCT testu zjistíš, že až tak stabilní to rozhodně není, nárážím ne na pád OCCT, ale na výskyt chyb. Já jsem byl schopen kartu nakonec nataktovat tak, že v klidu prošla Vantage s oslnivým SCORE ­(žádný pozorovatelný artefakty­), ale Furmark, OCCT, jen jedna, max. dvě minuty a bylo.
Pane Štefek a co třeba i trochu rozebrat utilitu OCGURU, kterou se Gigabyte pyšní a která je naprosto mizerná, sice pěkně zobrazuje spotřebu a je možná voltage i Vram, jenže právě manuálně nastavit voltage je v podstatě nemožné. Žel při taktování v této utilitě je karta stabilnější než třeba v Afterburneru.
Odpovědět0  0
hnizdo.1 | 22.9.201020:07
S taktováním pamětí mám stejnou zkušenost, pravděpodobně jsou již továrně taktovány těsně na hraně stability ­- všimněte si, že ani recenzovaná ­"Super Overclock­" nemá nijak přetaktované paměti oproti standardní GTX470 a je to pravděpodobně z výše uvedeného důvodu a dosti pravděpodobně je to i důvod, proč vykazují GTX470 v OCCT chyby. Co se týče napájení GPU, tak čtete nejen správně, ale dokonce je pro standardní takty 607­/1214 napětí na mé kartě továrně nastaveno ještě níže ­(na 0,950V­). VCC 0,962V používám pro takty 701­/1402 ­(tedy na úrovni oné báječné a bezdůvodně dražší a o 20 stupňů teplejší ­"Super Overclock­"), na taktech 752­/1504 pak používám VCC 1,0V ­(koneckonců na screenshotu je to jasně vidět vlevo na max. hodnotách. Takty 701­/1402 jsem použil pouze pro porovnání teploty s recenzovanou kartou. Informace o VCC v recenzi chybí, zakže jsem automaticky předpokládal nejnižší stabilní hodnotu ­- to jest u mé karty 0,962V­), výše než 752­/1504 jsem zatím nezkoušel ­- nebyl důvod, ale za předpokladu, že Vaše GPU bylo napájeno 1,012V továrně, nevidím důvod přoč bych nemohl jít i nad tuto hodnotu a pak vzniká samozřejmě možnost přetaktovat ještě o nějaký ten MHz nahoru ­(neboť GPU to tím pádem evidentně zvládá­). Nejsem však zastáncem taktování ­"na doraz­", obzvláště pak pokud k tomu v podstatě není rozumný důvod.
Pokud bych byl recenzentem já, tak jako technik uvedu grafy z mého screenshotu ­(byť bych je možná musel díky licenčním podmínkám Afterburneru překreslit do Excelu­) a vykašlu se na tunu sloupečků s čísly. Na uploadovaný graf člověk koukne a hned vidí, kerá bije ­(FPS, otáčky ventilátoru, rychlost náběhu teploty, dynamické takty atd.­) Taková recenze pak v kombinaci s reálným příkonem karty a OCCT testem podává téměř kompletní a přesné informace i pro technicky založené čtenáře.
Odpovědět0  0
kramatos | 22.9.201020:49
Takže, pokud spustíš OCCT, tak ti to taky vykáže nějaké chyby s tvojí 470kou i při továrním nastavení? Trošku mě to zmátlo jak jsi to myslel. Jestli obecně 470ky vykazujou chyby v GPU OCCT takže by se to nemělo brát jako vada nebo jen, že to je častá vada? Problém je, že GPU memtest prošel v pořádku, až následně GPU OCCT vykázal chyby. Na tu pamět jsem poukazoval hlavně z důvodu, že ve většině recenzích na tento konkrétní kousek se chlubí jak u této karty taktli paměti na 900Mhz ­- 1000Mhz, kdežto v mém případě i jen 5Mhz navíc znamenalo absolutní ztrátu stability ­(která se projevila i při hraní­). A samozřejmě s každým zvýšením taktu jádra chyby v GPU: OCCT testu pěkně narustály a v samotném závěru kdy už jsem byl nad 800Mhz lámaly rekordy, přitom ve Vantage stále žádné pozorovatelné artefakty či jiné pochybné záležitosti. Je možný, že moje karta byla skutečně vadná, ale pokud tomuhle Gigabyte říká class 1 grafická karta, do které dle Gigabytu jsou vybírány opravdu ty lepší jádra, pak je mi spíš do pláče. Jako rozumný člověk jsem se rozhodl vzít 470ku, která by ty dva roky měla celkem vydržet a tenhle nereferenční kousek mě ihned zaujal, než 460ku která kvůli ubohé tesselaci bude za rok v kytkách. No nakonec to vypadá, že svůj záměr budu muset přehodnotit. Mě právě udivuje, jak si plno lidí pochlebuje ohledně 460ky jak jí závratně nataktovaly, přitom jen minimum lidí zkusilo OCCT, kde by jásat brzo přestali a takty by šli hodně dolu... Samozřejmě netvrdím že není možné narazit na opravdu povedený kousek.

Trochu mimo, jen Tvůj názor: 2xGTX470 na Seasonicu X­-650, utáhne? Neutáhne? Ne že bych chtěl jít reálně do SLI, jen mě to zajímá.
Odpovědět0  0
hnizdo.1 | 23.9.20101:42
Při továrním nastavení nikoliv. Abychom si trochu srovnali ­"obraz­" a byli tedy ve stejném, je třeba upřesnit některá fakta. Funkce memtest v OCCT pracuje v podstatě na principu klasického memtestu tak, jak ho známe z testů RAM ­- to znamená, že je primárně určen pro detekci výrobních vad paměťí. Nemá tedy souvislost s testem stability. Příklad: pokud na své GTX nataktuju paměti na 1000Mhz a spustím memtest, může běžet klidně celý den a neodhalí zhola nic, protože je principielně určen právě k detekci výrobních vad, které já samozřejmě nemám. Spustím­-li však GPU OCCT test s pamětí přetaktovanou byť o 5Mhz, bude tento test vykazovat chyby, nebo se rovnou složí ­- z toho vyplývá, že GPU OCCT test netestuje pouze GPU ­(technicky to ani není možné, neboť GPU je pro své výpočty zásobeno právě daty z VRAM a během výpočtů ji používá­). Čili jakákoliv, byť sebemenší nestabilita pamětí se okamžitě projeví v tomto testu ve formě chyb. Problém tedy není v GPU, ale ve VRAM. Jak u této karty nataktovali paměti na 1000Mhz při zachování stability opravdu netuším ­- nemůžu to vyloučit, protože jsem to nikdy neviděl, ale u mé karty to rozhodně možné není bez změny napájecího napětí VRAM. Pokud zvýšíte napájecí napětí VRAM, pak je možné samozřejmě možné ji přetaktovat, ale standardně je VRAM na této kartě taktována při daném napájecím napětí opravdu na hraně stability, takže při sebemenším pokusu o přetaktování je třeba zvýšit i její napájecí napětí ­(což v Afterburneru rozhodně neudělám­).

Doufám, že teď už je o něco jasnější, jak jsem to myslel.

Co se týče toho seasonicu....můj názor je, že 2xGTX470 zvládně s přehledem, ale otázkou zůstává, kolik výkonu zbyde k dispozici pro zbytek komponent ­- a to je právě to, co jsem se tady panu zatvrzelému recenzentu snažil vysvětlit. Kdyby byl u každé recenze uváděn skutečný příkon pouze jednotlivých komponent, došli bychom k závěru jednoduchým součtem příkonů, což ale nelze, protože je nemáme kde vzít. Pak bychom mohli říci, že příkon celé sestavy je x Wattů a přičíst reálný příkon další GTX470, který by byl uveden v recenzi. Tyto informace ale nemám, takže se to můžeme pokusit alespoň !zhruba! odvodit z údajů, které máme k dispozici z recenze.

Předpokládám, že recenzenti si nijak s měřením nelámali hlavu a změřili příkon odebíraný ze síťe ­(tzn. včetně zdroje­), přičemž jejich výsledek byl tedy 386W. V testovací sestavě měli zdroj Gigabyte Odin Pro 1200W, který splňuje standard 80+ a jeho zatížení ­(<386W­) bylo cca 30%. Zdroje se standardem 80+ mají při tomto zatížení účinnost zpravidla 87­-90%, takže příkon sestavy za zdrojem byl zhruba 386W­-13%=336W. Předpokládáme­-li, že byl při testech slušně zatížen i procesor, tak z této hodnoty můžeme směle odečíst ztrátový výkon procesoru Core i7 930, neboť od výrobce víme, že činí 130W a je to pouze výkon, který procesor ­"vytopí­" ­(nikoliv celkový příkon procesoru, reálný výkon lze ale oproti ztrátovému výkonu zanedbat, neboť bude mnohonásobně nižší­). Takže nám zbývá příkon 206W, kerý se dále dělí mezi základní desku, paměti, disk, případně zvukovou kartu a především grafickou kartu.
Můžeme tedy říci, že předpokládaný příkon ­(a tudíž výkonové nároky na zdroj­) sestavy ve složení Intel Core i7 920 , deska Gigabyte GA­-EX58­-UPD, Kingston DDR3 1333MHz 6x 2 GB, 2x disk a 2x GTX 470 SOC a dvojnásobek ventilátorů, které byly v recenzi použity by mohl být při stejných testech, jaké byly použity v recenzi !zhruba! 542W, přičemž nám v tomto výsledku stále přebývá příkon jedné základní desky, kterou nezná ani pan Google ­(takže zřejmě mysleli EX58­-UDxP nebo UDxR, kde x je další číselné označení­). Zvukovku zanedbejme, příkon bude maximálně pár wattů.

Čili závěr je takový, že dle mého názoru by to měl Seasonic 650W zvládnout, ale nebude tam žádná extra výkonová rezerva.
Odpovědět0  0
kramatos | 23.9.201018:50
Díky za vyčerpávající odpověď a ujasnění, takže teď mám jistotu, že karta musela být skutečně vadná. K tomu zdroji, tedy teoreticky když budu mít 1 disk 7,2k o­/m, p55 board, i5­-750, 2xGTX470, DVD a jinak krom pár větráčků nic víc, měl by to zdroj utáhnout, v případě, že se nebudu pokoušet extrémně taktovat, což se vzduchem ani moc nejde. Ptám se s ohledem do budoucna, nejsem moc zastánce SLI, ale člověk nikdy neví na co třeba v bazáči­/inzerátu za rok narazí... A mohl by to nakonec být levný upgrade, ikdyž by se asi ty karty upekli... Raději v tomhle případě skutečně zůstanu v teoretické rovině.
Odpovědět0  0
hnizdo.1 | 27.9.201017:47
Co se týče chvění obrazu, tak pokud tato situace nastávala i se standardními takty, lze konstatovat, že karta byla skutečně vadná. Pokud jde o nestabilitu při taktech GPU 800+MHz, tam to nemuselo znamenat vadnou kartu ­- vezměte v úvahu, že toto GPU má standardní takt 607MHz ­(pomiňme fakt, že GTX470 SOC je taktována na 701MHz, což ale už není standardní takt GPU­), čili 800MHz už je přetaktování o více než 30%, takže případná nestabilita se v žádném případě nedá považovat za vadu karty, ale za překročení ­"technického limitu­" daného GPU. Stabilita je dána několika faktory, které spolu úzce souvisí ­- příklad: chci přetaktovat GPU. Abych dosáhl stability při vyšším taktu, je třeba zvýšit napájecí napětí. Tím, že zvýším napájecí napětí se logicky zvýší teplota a teplota ­(nejen­) mi ovlivňuje stabilitu ­(neboť ­"přehřátý­" procesor vždy háže chyby­). Dá se tedy říci, že stabilita závisí na teplotě a poměru frekvence­/napětí. Pokud tedy narazím u kterékoliv z těchto hodnot na ­"technický strop­", výsledkem bude vždy nestabilita. Moje zkušenost u tohoto GPU je taková, že při taktech nad 700MHz je pro zachování stability již při sebemenším přetaktování třeba výrazně zvýšit napětí a tím pádem se mi výrazně zvýší teplota a pokud nechladíte opravdu efektivní metodou ­(např. voda­), narazíte brzy na nestabilitu, způsobenou vysokou teplotou. Pokud se budete chtít vyvarovat vysoké teploty a snížíte napětí, pak narazíte na nestabilitu způsobenou nevhodným poměrem takt­/napětí. Závěr tedy je, že pokud mi GTX470 nepůjde přetaktovat na 800+MHz, nemůžu to prohlásit za vadu karty už jen z toho titulu, že výrobce samozřejmě garantuje stabilitu pouze při jeho defaultních taktech, takže nejde­-li karta výrazně přetaktovat, nevzniká žádný důvod k reklamaci, protože výrobce Vám nikde nezaručuje, že ta kara má jít přetaktovat ­(naopak varuje, že pokud prokazatelně vznikne nějaká závada vlivem přetaktování, tak zaniká záruka­).

Co se týče zdroje, tak můj názor jsem již jednou prezentoval. U Vás bude od mého minulého příspěvku rozdíl pouze ten, že Váš procesor má TDP 95W ­(core i7 930 v recenzi má 130W­), čili výkonové nároky na Váš zdroj budou ještě nejméně o 35W níže ­(TDP = ztrátový výkon­).
Co se týče budoucího nákupu ­"jeté­" GTX470 ­(nebo obecně jakékoliv karty­) pro SLI je zde několik problémů. Je třeba především pečlivě vybírat, neboť aby SLI šlapalo tak, jak má, je třeba mít dvě karty od stejného výrobce, stejné revize a nejlépe se stejnou verzí ­"BIOSu­" ­- pokud nebude cokoliv z uvedeného sedět, nemusí to fungovat korektně, což je u bazarového zboží celkem průšvih, protože již nemusíte mít možnost kartu vrátit a pak je vám k ničemu ­(narazil jsem i na zkušenosti, že to z neznámého důvodu nefunguje korektně ani při splnění všech těchto podmínek­).
Radím tedy opravdu zůstat v teoretické rovině ­- navíc vidím, že problému s chlazením jste si vědom ­- u dvou těchto karet v SLI už bych opravdu dosti vážně uvažoval o vodě.
Odpovědět0  0
kramatos | 28.9.201014:17
No to chvění obrazu byl hlavní důvod proč jsem kartu vracel ­(nebylo to nějak výrazné při brouzdání, v zátěži se to dělo mnohem častěji a prostě to nehorázně obtěžovalo, nejdřív jsem myslel že je vadnej kabel nebo odchází LCD, vzhledem k tomu že po AUTO ADJUST na LCD to nebylo tak hrozné, ale po vyzkoušení na jiné sestavě bylo vše v pořádku­), jinak s výkonem jsem byl spokojen, ale přeci jen když to při továrním nastavení vykazuje chyby v OCCT, tak je něco v nepořádku, přesto že je karta od výroby taktovaná. Ale na druhou stranu karta byla skutečně na těchto taktech stabilní, ale jako 92­-105 chyb ­(zkoušel jsem různé 3 drivery, ofiko, ze stránek Gigabytu a bety­) za 5 minut při továrním nastavení, nevim nevim. Teď jsem právě zarezervoval referenční 470ku od MSI za 6K s DPH, což je krásná cena. Jak je na tom referenční chlazení s hlukem. Jsem připraven eventuelně zakoupit až bude k dispozici, chladič Zalman. Z recenzí toho člověk často moc nezíská, o Noctuách se taky všude píše jak jsou tiché, přitom to je pro mě docela randál když jedou na plný otáčky.
Odpovědět0  0
hnizdo.1 | 30.9.201019:29
Pokud vykazovala chyby i při továrních taktech a napětí, tak asi opravdu nebylo co řešit. Co se týče stability, tak zde bych o ní vůbec nemluvil ­- stabilní procesor prostě chyby nevykazuje. Pokud ano, pak je nestabilní ­(jinými slovy nestabilita procesoru se určuje podle toho, zda procesor nevykazuje chyby a je úplně jedno, zda případné chyby způsobí či nezpůsobí nestabilitu celého systému­).
Referenční chlazení je samozřejmě co se týče hluku relativně mazec. Bez zatížení GPU je to OK ­- šepot květin. Jakmile ale stoupne teplota, tak je to v pasti. Samozřejmě se svou kartou, která jede do 80 stupňů si ještě nemám moc co stěžovat, ale při 98 stupních už bude hluk celkem neúnosný. Zkoušel jsem manuálně nastavit otáčky na 90% ­(to jest 4800ot­/min­) a hluk se dá zhruba přirovnat k většímu autíčku na setrvačník. Co se týče Zalmana za téměř 1500kč, tak já osobně bych tuto myšlenku a při investici dalších 300kč bych šel rovnou do vody ­(např. CORSAIR Cooling Hydro Series nebo něco podobného­). Nesporná výhoda by byla v nižší hlučnosti ­(120mm vs. 2x90mm­) a ještě mnohem větší výhodoa potom možnost vyvést teplo ven ze skříně. Navíc pokud máte opravdu dobře větraný case, nebyl by problém chlazení nainstalovat na stávající 120mm ventilátor, čímž by byla zcela vyřešena hlučnost ­(v tomto případě nulová­) i odvádění tepla ze skříně. Utrpěla by trochu účinnost chlazení, neboť ve skříni bude vždy vyšší teplota, než je teplota okolí, ale například v mém případě je to jen cca o 4 stupně, což se dá v porovnání s výhodami zanedbat. Jediné, s čím by si člověk musel trochu pohrát by bylo uchycení na desku grafiky.
Odpovědět0  0
kramatos | 30.9.201023:39
S tim vodníkem, tak nějak zatim ne, ale do budoucna o tom popřemýšlím, každopádně jdu do toho, řekl bych že než vzít za 5,2k GTX 460ku, v případě ceny 6K za 470ku ­(je to referenční MSI­) asi neni moc co řešit. Trošku mám ještě dilema jestli nakonec nevzít tu 460ku MSI Hawk teď za 5,5k. Nerozhodnost je hrozná vlastnost. Obávám se abych pak nelitoval se 470kou, že sic za míň peněz mám větší výkon, ale přílišnou hlučnost.
Odpovědět0  0
hnizdo.1 | 8.9.201023:29
No já nevím, ale pánové recenzenti zřejmě udělali někde ­"drobnější­" chybky. Zejména ve ­"spotřebě­" a teplotě. Nevím co a čím měřili ­(možná snad počítali otáčky elektroměru­), ale pokud naměřený příkon ­(ano, příkon pánové technici, neboť spotřeba se udává za čas­) není příkonem celé sestavy, tak je to absolutní blud. Já se ocitám se svou přetaktovanou GTX470 někde o 50W níže, ale včetně 3xHDD, 8GB RAM, přetaktovaným AMD PhenomII X4 a několika ventilátory + regulátory s displeji. A to jsem neodečetl 20%, neboť můj zdroj má papírově účinnost cca 80%. Teploty mám taky někde jinde. Při teplotě okolí 25st ­(ano, i to je dobré u testů udávat­) jsem se nikdy nedostal se standardním chladičem nad 80st, s továrními takty pak nějakých 76st ­- mít tam 98st, tak si pořídím bigtower, abych si mohl během přestávek v hraní Metra občas něco ugrilovat. Pravděpodobně bych to ale psychicky nevydržel a GTX470 by letěla oknem. Základem všeho je dobře větraný case a uživatelsky definivaná závislost teplota­/otáčky.
Odpovědět0  0
Petr Štefek (1098) | 18.9.201019:35
Nechápu smysl tvého příspěvku ... samozřejmě se jedná o celou sestavu. Přes 90 stupňů karta skutečně má a to Metro scéna s dynamickým osvětlením přes okna. Ve furmaku by to bylo ještě výše, ale já ho nevyužívám, protože je to úplně zbytečně smažení karet.
Odpovědět0  0
hnizdo.1 | 21.9.201010:42
Nechápete?....nevadí. Také spoustu věcí nechápu. Jen poukazuji na to, že měřit příkon zdroje celé sestavy není cestou, jak zjistit spotřebu ­(čtěte příkon­) grafické karty, natož pak udávat rozdíl mezi iddle a zátěží, neboť se pak do měření míchá spousta dalších faktorů ­(dynamické taktování CPU, příkon HDD, příkon ventilátorů celé sestavy atd. ­(nebo si snad skutečně myslíte, že rozdíl mezi klidem a zátěží např. GTX480 odpovídá rozdílu v jejím příkonu 273W??­) Nehledě na to, že zdroj nemá a nikdy mít nebude účinnost 100%, tzn., že ze sítě odebere vždy řádově o desítky procent více energie, než je energie, kterou je třeba do systému dodat. Co se týče metra, tak jsem ho samozřejmě zkoušel taky a naměřené teploty jsem uvedl, takže oproti Vám mám zřejmě nějakou speciální ­"studenou­" edici GTX470, byť přetaktovanou a s referenčním chladičem. Přesvědčovat mě o tom, že karta má naprosto normálně a u každého uživatele přes 90 stupňů je naprosto zbytečné, neboť já vím, že moje karta 90 stupňů nikdy nezažila ­(přes 80 stupňů jsem se prostě nedostal...mám ji snad kvůli tomu jít reklamovat :­-­).
Odpovědět0  0
Petr Štefek (1098) | 21.9.201011:34
Příkon grafické karty jednoduše jen tak nezjistím a jestli máte jednoduché řešení, tak sem s ním. GTX 470 není tak studená jak tady naznačuješ .. to jsou pohádky tisíce a jedné noci a skutečně bys měl nejstuděnější kartu na světě...pokud tedá nemáš otáčky na maximum permanentně:)
Odpovědět0  0
hnizdo.1 | 21.9.201020:54
Jaký pohádky tisíce a jedné noci proboha?? Nic tu nenaznačuju ­- toto tvrzení je založeno na reálné teplotě mé karty. Otáčky na maximum samozřejmě nemám, nejsem ochoten investovat do špuntů do uší.
Jedna z věcí, které mě iritují je, když něco vidím každodenně na vlastní oči a někdo, kdo to evidentně nikdy neviděl mi tvrdí, že to neexistuje. Proč bych to sem asi jinak proboha psal? Mělo by to nejaký rozumný důvod?
Vzhledem k Vaší tvrdohlavosti jsem obětoval čas ­(který z důvodů pracovní vytíženosti ovšem téměř nemám­) a výsledkem je následující screenshot, který vznikl monitoringem mé GTX470 při dvaceti minutách Metra. Nastavení jsem volil stejné jako ve Vaší recenzi ­(DX11, vše full, 1920x1080­).
http:­/­/czshare.com­/1432589­/iOxf­/gtx470CLK_TEMP.jpg
Na screenshotu je vidět vše potřebné včetně taktů a otáček ventilátoru. Znamená­-li tento screenshot skutečnost, že mám nejstudenější kartu na světě, tak jsem ochoten s tím žít bez ohledu na to, co mi bude kdo zarytě tvrdit i když to neviděl na vlastní oči. Hodí se sem jeden trefný cicát, a sice ­"Já jsem vašu p..u taky neviděl a věřim, že ju máte­"...občas by jste mohl taky připustit, že na tom něco bude. Netvrdím, že ta karta se ve skříni s nepříliš ideálním chlazením nemůže rozpálit na 95­-100 stupňů, proč by nemohla? Tvrdím jen to, že mě to prostě nedělá, neboť mám slušně řešenou skříň a alternativní řízení otáček ventilátoru ­(no a nebo nejstudenější kartu na světě­).

Jinak příkon karty, která není napájena přes PCIe zjistíte naopak velmi jednoduše, je to otázka investice cca 1500kč, která je dle mého názoru nutností u každého profesionálního recenzenta, který chce u své recenze uvádět skutečně vypovídající hodnoty o konkrétním produktu. Uvádět u grafické karty hodnoty zvané ­"spotřeba­", i když je tím vlastně myšlen příkon celé sestavy se zanedbáním účinnosti zdroje zde není cestou ­(pomiňme fakt, že to tak většina recenzentů stejně dělá­). Z mého pohledu je podstatné, jaký je příkon recenzovaného produktu, abych mohl při případném nákupu například jednoduše usoudit, zda na to ještě můj zdroj má či zda budu muset provést upgrade. Což z příkonu sestavy nezjistím, pokud v tomto případě nemám core i7 920 a další komponenty Vaší testovací sestavy. Já bych prostě jako čtenář uvítal jednoznačnou informaci ­"příkon této karty je x Wattů­" ­- pak by mi bylo například hned jasné, jaký příkon by měli dvě tyto karty v SLI a i celá recenze by pak měla vyšší ­"technickou­" úroveň a vyšší výpovědní hodnotu. To jest vše.
Odpovědět0  0
ptipi_ | 8.9.201017:46
Když už uděláte testy, tak by bylo v závěru vhodné jejich výsledek respektovat.
"Je tedy na vás, zda dáte přednost Nvidii s podporou PhysX a CUDA nebo AMD s o něco vyšším výkonem a potenciálem pro přetaktování.­"

5870 ve vašich testech tuto oc verzi 470 překonala v jediném testu z šesti, takže se dá jen těžko mluvit o ­"vyšším výkonu­". Spíše tam mělo být něco jako ­"nižší spotřeba­" ­(a z toho vycházející výhody­).
Odpovědět0  0
r5v | 8.9.201014:18
zdravím všechny,
tuto kartu jsem delší dobu testoval. Výkon dobrý, cena odpovídá výkonu který nabízí.
Upozornil bych na jednu věc. Jestliže není DOBŘE odvětrávaný kejs pak se při vysoké zátěži rychle přehřeje a dochází k nestabilitám a to už při GPU teplotách okolo 93st a PCB 55st. Přičemž stock verze 470tky nebo 480tky v pohodě chodí i na 100st GPU.
Fermi silně topí a pro tento typ chladičů které nefoukají ven nevyhoví každá skříň!
Odpovědět0  0
Petr Štefek (1098) | 18.9.201019:31
Ty teploty co píšeš odpovídají tomu, co jsem naměřil, ale nestabilitu jsem nezaznamenal... můžeš být konkrétnější?
Odpovědět0  0
palo1129 (11) | 8.9.201012:16
No opat snaha, pokusit sa v recenzii predat nepredajny kus zbozia od Nvidie. Vyrobcovi sa z casti podarilo zakryt hrozne vlastnosti cipu F100, tym ze pouzije vykonejsi a lepsi chladic. Samozrejme, ze mu nic neostavalo, ako takto draho vyrobenu GK premientnut do jej ceny. 8500 za kus 470 je prilis vysoka cena. Aky osud caka GTX 470 OC po vydani GK hd6000 asi vsetci vieme,... alebo nie?
Odpovědět0  0
boboe (123) | 8.9.201016:04
Také se mi poslední dobou zdá, že se to jenom hemží kladnými recenzemi na cokoli od nVidie.

Tak nějak si pořád říkám, čím to je, že prodeje těmto pochvalným recenzím ani vzdáleně neodpovídají :)
Odpovědět0  0
Petr Štefek (1098) | 18.9.201019:30
Ta karta je dobrá ... ceny klesly a GF GTX470 je už často i pod 7k ... to není vůbec špatné. Když byla za 9 a více tisíc, tak jsem psal, kam si mohou strčit a teď když je o dva tisíce levnější, tak mě zase kamenujete:D
Odpovědět0  0
ik? | 28.9.201020:10
Koupil jsem si ji 10.9 za ca 7700 korun a jsem moc spokojenej. Jsem srdcar Nvidie :)
Odpovědět0  0
boboe (123) | 8.9.20109:19
Ke zlevňování jsou pádné důvody:
1­) Velice špatné prodeje
2­) Veliká spokojenost výrobců GK, kteří již mají k dispozici čipy HD6000
Odpovědět0  0
Tarman (118) | 8.9.20108:35
Jakou verzi GTX 460 jste použili? V seznamu karet jsem jí nenašel.
Odpovědět0  0
AL_ | 8.9.20108:26
zvlast dekuji za opetovny zarazeni arma2, mit prachy tak po tehle 470 skocim..v gigabyte sou sikulove :)
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.